Seleziona la lingua

Italian

Down Icon

Seleziona Paese

Spain

Down Icon

Il figlio di un accademico etiope ucciso dopo essere stato preso di mira su Facebook: "Non hanno fatto nulla e tre settimane dopo hanno ucciso mio padre".

Il figlio di un accademico etiope ucciso dopo essere stato preso di mira su Facebook: "Non hanno fatto nulla e tre settimane dopo hanno ucciso mio padre".

Il 3 novembre 2021, Meareg Amare Abrha, un rinomato professore di chimica con oltre 40 anni di esperienza, stava tornando dall'Università di Bahir Dar, nell'Etiopia settentrionale, quando un gruppo di uomini armati gli ha sparato alla schiena a pochi metri dalla casa in cui viveva con la sua famiglia. Abrha giaceva a terra con numerose ferite da arma da fuoco al petto e alle gambe, mentre gli aggressori, che avevano circondato il suo corpo, avvertivano i passanti che avrebbero fatto lo stesso a loro se avessero provato a prestare assistenza medica all'uomo, che accusavano di aver commesso atti di violenza contro la popolazione della regione di Amhara in Etiopia. Dopo sette ore di agonia, Abrha morì dissanguata.

Quegli uomini avevano identificato e trovato il professore attraverso un post sul social network Facebook. Con una decisione senza precedenti, emessa il 5 aprile, l'Alta Corte del Kenya ha stabilito di avere giurisdizione per perseguire Meta, la società madre di Facebook, perché al momento della pubblicazione dei post presi di mira da Abrha, il loro contenuto era monitorato dall'East Africa Moderation Center, con sede a Nairobi.

"Mio padre era distaccato dalla politica. Trascorreva la maggior parte del tempo nel laboratorio universitario o a casa, ed era completamente dedito al suo lavoro accademico", spiega Abrham Meareg, figlio del professore, nella sua prima intervista con un media in lingua spagnola. Tuttavia, il 9 ottobre 2021, tre settimane prima dell'omicidio, un account Facebook anonimo chiamato "BDU Staff" - che all'epoca contava più di 54.000 follower - pubblicò informazioni sul professor Abrha. Il primo post conteneva una foto del suo volto con accuse di violenza contro la popolazione etiope e di nascondimento nell'università. Centinaia di commenti che incitavano all'odio e alla violenza contro di lui hanno riempito le reti. Era un periodo in cui l'Etiopia stava attraversando una brutale guerra civile tra l'esercito etiope e il Fronte di liberazione popolare del Tigray. I cittadini della regione del Tigray, da cui proveniva l'insegnante, hanno vissuto sotto una persecuzione diffusa e sistematica durante il conflitto, durato dal 2020 fino alla firma del cessate il fuoco nel novembre 2022.

Il giorno dopo, un nuovo post dello stesso account ha condiviso un'altra sua foto con il suo indirizzo di casa esatto, sostenendo che aveva partecipato attivamente a massacri, collaborato con incursioni militari dei ribelli del Tigray e rubato ingenti somme di denaro. In soli due giorni, i post hanno raggiunto migliaia di utenti, ma non Amare Abrha perché non aveva nemmeno un account Facebook.

Dopo la pubblicazione dei messaggi, il figlio dell'insegnante ha ricevuto una chiamata da un amico che lo avvisava di prestare attenzione ai commenti. "All'inizio, alcuni hanno cercato di difendere mio padre dicendo che era solo un insegnante di chimica. Tuttavia, molti altri hanno iniziato a chiedere un intervento, incoraggiando le persone a smettere di perdere tempo su Facebook e ad attaccarlo direttamente. In Etiopia, i post online hanno conseguenze molto concrete anche offline", spiega in videochiamata da Minneapolis, Stati Uniti, dove è fuggito dopo il tragico evento.

Foto d'archivio del professor Meareg Amare con la nipote, due mesi prima del suo assassinio.
Foto d'archivio del professor Meareg Amare con la nipote, due mesi prima del suo assassinio. Trasferito

Consapevole del reale pericolo in cui si trovava suo padre, Abrham Meareg ha immediatamente denunciato i post: "Ho inviato decine di segnalazioni tramite il sistema di segnalazione online di Facebook. Ho fatto tutto il possibile per avvertirli, ma Facebook non ha fatto nulla. Tre settimane dopo, mio ​​padre è stato ucciso". Otto giorni dopo l'omicidio, Meta rispose finalmente alla richiesta di Meareg. La piattaforma ha riconosciuto che i post violavano gli standard della comunità e ha quindi rimosso il post , ma ormai era troppo tardi per salvare la vita del padre. Ci è voluto un anno per rimuovere il secondo post.

Giurisdizione transfrontaliera

Nel dicembre 2022, Abrham Meareg, insieme a Fisseha Tekle, ex ricercatrice di Amnesty International che è stata oggetto di campagne d'odio online per il suo lavoro sui diritti umani, e al Katiba Institute, un'organizzazione keniota specializzata nella tutela dei diritti costituzionali, hanno intentato congiuntamente una causa contro Meta per aver promosso contenuti dannosi durante il conflitto armato nell'Etiopia settentrionale. Lo hanno fatto davanti a un tribunale keniano attraverso un ricorso costituzionale , il meccanismo legale che questo Paese ha istituito per denunciare eventuali violazioni dei diritti fondamentali. La denuncia è stata presentata in Kenya perché i moderatori dei contenuti di Facebook per l'Africa orientale lavorano da Nairobi, la capitale del Paese.

Nella denuncia, i querelanti sostenevano che gli algoritmi di Meta promuovessero contenuti che portavano a violenze etniche nella vicina Etiopia tra il 2020 e il 2022. Al momento del deposito, l'azienda guidata da Mark Zuckerberg ha sostenuto che i tribunali kenioti, dove all'epoca risiedevano i moderatori etiopi di Facebook, non avevano giurisdizione sul caso. Tuttavia, la Corte suprema del Kenya ha stabilito di avere la giurisdizione per processarlo nel paese. Questo giornale ha contattato Meta per includere la sua versione dei fatti, ma finora non ha ricevuto risposta.

"Il fatto che il caso venga archiviato in Kenya ha senso, poiché tutte le decisioni relative alla moderazione dei contenuti in passato venivano prese a Nairobi", spiega Alia al Ghussain, ricercatrice e consulente del team Big Tech Accountability di Amnesty Tech. Al Ghussain è l'autore di "Una condanna a morte per mio padre: il contributo di Meta alle violazioni dei diritti umani nell'Etiopia settentrionale ", un rapporto pubblicato dalla divisione di Amnesty International che chiede conto alle grandi aziende tecnologiche dei loro diritti umani. "Durante l'indagine, abbiamo scoperto che Meta non è riuscita a moderare adeguatamente i contenuti anti-Tigrini che circolavano ampiamente su Facebook durante il conflitto nell'Etiopia settentrionale", ha affermato Al Ghussain. Sottolinea però che "la cosa più preoccupante è che gli algoritmi hanno favorito la diffusione dei contenuti grazie al loro modello basato sull'interazione". "Il sistema dà la priorità ai post che generano più reazioni, commenti e condivisioni, indipendentemente dal fatto che il contenuto sia dannoso o meno", afferma.

Il sistema [Meta] dà priorità ai post che generano più reazioni, commenti e condivisioni, indipendentemente dal fatto che il contenuto sia dannoso o meno.

Alia al Ghussain, ricercatrice presso Amnesty International

Meta ha dichiarato pubblicamente che intende presentare ricorso contro la decisione della Corte suprema del Kenya. "Piuttosto che andare in tribunale e difendere le proprie azioni – o omissioni – Meta ha sistematicamente ritardato e aggirato il processo sostenendo che il tribunale non aveva giurisdizione. Questa non è solo una strategia legale; è un modo per eludere la propria responsabilità. Il processo permetterà di valutare le argomentazioni nel loro reale merito", spiega Tom Hegarty, direttore delle comunicazioni di Foxglove, un'organizzazione britannica che ha sostenuto il caso di Meareg e Tekle.

"Quello che è successo a mio padre non è stata solo una tragedia, era qualcosa che si poteva evitare. Facebook deve assumersi la responsabilità diretta di aver incitato all'odio e di aver permesso la violenza contro di lui", spiega Abrham Meareg. I querelanti chiedono a Meta quattro cose: modificare l'algoritmo che alimenta l'odio e la violenza attraverso la piattaforma; Investire in moderatori di contenuti locali che conoscano il contesto politico e culturale; delle scuse pubbliche per la sua mancanza di azione; e un risarcimento di circa 2,15 miliardi di euro alle vittime per riparare i danni causati. "Non possiamo cambiare ciò che è successo alla mia famiglia, ma possiamo fare in modo che non accada ad altri", spiega Meareg.

Un precedente globale

Non è la prima volta che Facebook riceve accuse di questo tipo. Il ruolo dell'organizzazione nell'alimentare la violenza etnica nelle zone di conflitto è stato rivelato per la prima volta da Frances Haugen, un'ex dipendente dell'azienda che nell'ottobre 2021 ha rivelato al Congresso degli Stati Uniti in che modo Facebook ha contribuito ai massacri del 2017 dei musulmani Rohingya in Myanmar, ammessa dall'azienda stessa . Haugen ha fatto trapelare i cosiddetti Facebook Papers , una serie di documenti che indicavano specificamente gli algoritmi di personalizzazione dei contenuti di Meta come il fattore principale nella diffusione di discorsi d'odio che incitavano alla violenza, all'ostilità e alla discriminazione in paesi come Myanmar, Etiopia, India e Sri Lanka. Un rapporto del 2021 di Global Witness ha inoltre rivelato che l'algoritmo di Facebook stava amplificando contenuti che violavano le sue stesse politiche in materia di violenza e disinformazione in seguito al colpo di stato militare del Myanmar , che ha causato la morte di centinaia di manifestanti nelle strade.

Un altro fattore chiave nella moderazione dei contenuti è il linguaggio, un fattore che le organizzazioni per i diritti umani attribuiscono a un atteggiamento neocoloniale da parte dell'azienda. "Meta è stato ripetutamente criticato per il trattamento iniquo riservato ai paesi di lingua inglese del Nord del mondo rispetto ai paesi non di lingua inglese del Sud del mondo, rendendo gli utenti di alcuni dei paesi più vulnerabili al mondo ancora più esposti alla violenza", afferma il rapporto di Amnesty International. Haugen ha sollevato un dato sconvolgente: "L'87% della spesa di Facebook per combattere la disinformazione viene investito in contenuti pubblicati in inglese, nonostante solo il 9% degli utenti parli inglese". I post che hanno portato alla morte del professor Meareg erano scritti in amarico, la lingua ufficiale dell'Etiopia.

Facebook distingue tra i suoi moderatori negli Stati Uniti e quelli che l'azienda chiama "il resto del mondo". Nel 2023 Meta ha chiuso il suo centro di moderazione dei contenuti dell'Africa orientale. All'epoca, l'azienda aveva 260 dipendenti che moderavano i contenuti per una popolazione di oltre 500 milioni di persone. Ora, il caso intentato da Meareg potrebbe creare un precedente globale: "Le grandi aziende tecnologiche statunitensi non dovrebbero poter andare in giro per il mondo a fare ciò che vogliono senza essere ritenute responsabili. Il diritto internazionale si applica anche a loro e i tribunali africani, come qualsiasi altro tribunale, hanno tutto il diritto di applicarlo", ha affermato Hegarty.

EL PAÍS

EL PAÍS

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow